اگر هوش مصنوعی به آگاهی برسد؛ آیا باید نگران بود؟ در میان بعضی متفکران، این دیدگاه به طور فزایندهای در حال شکلگیری است که هرچه هوش مصنوعی باهوشتر شود، ناگهان درون ماشینها چراغ آگاهی روشن خواهد شد و آنها به خودآگاهی دست خواهند یافت.اما برخی دیگر، مثل پروفسور آنیل ست که سرپرست تیم دانشگاه ساسکس است، با این دیدگاه مخالفاند و آن را «پیشبینی بدون پشتوانه که از باور به برتری انسان ناشی میشود» توصیف میکنند.
با کمی دلهره وارد اتاقک میشوم. قرار است در حالی که موسیقی پخش میشود، در معرض نورهای چشمکزن قرار بگیرم. این بخشی از یک پروژه تحقیقاتی است که تلاش میکند دریابد چه ویژگیهایی است که ما را به عنوان انسان متمایز میکند.
این تجربه مرا به یاد آزمایشی در فیلم علمی-تخیلی «بلید رانر» میاندازد که از آن برای تشخیص انسانها از موجودات مصنوعی که خود را بهعنوان انسان جا میزنند، استفاده میکردند.
آیا ممکن است من یک ربات از آینده باشم و خودم خبر نداشته باشم؟ آیا در این آزمایش موفق میشوم؟
پژوهشگران به من اطمینان میدهند که این آزمایش اصلا درباره چنین چیزی نیست. ابزاری که آن را «دریمماشین» (ماشین رویا) مینامند، طراحی شده است تا مطالعه کند مغز انسان چگونه تجربیات آگاهانه ما را از جهان ایجاد میکند.
وقتی تابش نورهای چشمکزن آغاز میشود، حتی با چشمان بسته، الگوهای هندسی دوبعدی درهمپیچیده میبینم. گویی وارد یک دستگاه اشکالنما (کالیدوسکوپ) شدهام، با مثلثها، پنجضلعیها و هشتضلعیهایی که مدام تغییر شکل میدهند. رنگها درخشان، شدید و مدام در حال تغییرند: صورتی، ارغوانی و فیروزهای که مثل چراغهای نئون میدرخشند.
دریمماشین فعالیتهای درونی مغز را با نورهای چشمکزن به سطح میآورد و تلاش دارد چگونگی کارکرد فرایندهای ذهنی ما را کشف کند.
به گفته پژوهشگران، تصاویری که من در هنگام این آزمایش میبینم، منحصربهفرد و تنها به دنیای درونی خودم مربوط میشود. آنها معتقدند این الگوها میتواند به روشن شدن ماهیت خودآگاهی کمک کند.
آنها میشنوند که زیر لب میگویم: «چقدر زیباست، واقعا زیبا. انگار داخل ذهنم پرواز میکنم!»
دریمماشین که در مرکز علوم خودآگاهی دانشگاه ساسکس قرار دارد، تنها یکی از پروژههای جدید در سراسر دنیاست که به مطالعه خودآگاهی انسان میپردازد: بخشی از ذهن ما که باعث میشود از آگاهی نسبت به خود برخوردار باشیم، فکر کنیم، احساس داشته باشیم و درباره جهان به طور مستقل تصمیم بگیریم.
پژوهشگران امیدوارند با شناخت ماهیت خودآگاهی، درک بهتری از آنچه در مغزهای سیلیکونی هوش مصنوعی میگذرد به دست آورند. برخی بر این باورند که سیستمهای هوش مصنوعی بهزودی به خودآگاهی مستقل خواهند رسید، البته اگر تا الان نرسیده باشند.
اما خودآگاهی واقعا چیست و هوش مصنوعی چقدر به آن نزدیک شده است؟ و آیا باور به آگاه شدن هوش مصنوعی میتواند در دهههای آینده انسانها را به صورت بنیادین دگرگون کند؟
از داستانهای علمیتخیلی تا واقعیت
ایده ماشینهایی با ذهنهای مستقل مدتهاست که در داستانهای علمی-تخیلی به کار میرود. نگرانی درباره هوش مصنوعی به حدود صد سال پیش و فیلم «متروپلیس» بازمیگردد در آن یک ربات خود را به عنوان یک زن واقعی جا زده بود.
ترس از آگاه شدن ماشینها و تهدید انسانها، در فیلم «۲۰۰۱: یک ادیسه فضایی» محصول ۱۹۶۸ هم دیده میشود؛ وقتی کامپیوتر «هال ۹۰۰۰» به فضانوردانی که در سفینه هستند حمله میکند.
در تازهترین قسمت فیلم «ماموریت غیرممکن»، جهان با یک هوش مصنوعی سرکش و قدرتمند تهدید میشود که یکی از شخصیتها آن را «انگل دیجیتال خودآگاه، خودآموز و حقیقتخوار» توصیف میکند.
اما اخیرا در دنیای واقعی دیدگاهها درباره خودآگاهی ماشینها به سرعت تغییر کرده و این نگرانی به وجود آمده که شاید این موضوع دیگر فقط مربوط به داستانهای علمی-تخیلی نباشد.
این تغییر ناگهانی به دلیل موفقیت «مدلهای زبانی بزرگ» هوش مصنوعی ایجاد شده که از طریق اپلیکیشنهایی مثل جمینای و چتجیپیتی روی تلفنهای ما قابل دسترس هستند. توانایی نسل جدید این مدلها در انجام مکالمههایی روان و باورپذیر، حتی طراحان آنها و برخی از برجستهترین متخصصان این حوزه را شگفتزده کرده است.
در میان بعضی متفکران، این دیدگاه به طور فزایندهای در حال شکلگیری است که هرچه هوش مصنوعی باهوشتر شود، ناگهان درون ماشینها چراغ آگاهی روشن خواهد شد و آنها به خودآگاهی دست خواهند یافت.
اما برخی دیگر، مثل پروفسور آنیل ست که سرپرست تیم دانشگاه ساسکس است، با این دیدگاه مخالفاند و آن را «پیشبینی بدون پشتوانه که از باور به برتری انسان ناشی میشود» توصیف میکنند.
او میگوید: «ما خودآگاهی را با هوش و زبان مرتبط میدانیم، چون این ویژگیها در انسانها در کنار هم دیده میشود، اما به معنای آن نیست که در حالت کلی مثلا در حیوانات هم این طور باشد.»
پس خودآگاهی در اصل چیست؟
پاسخ کوتاه این است که هیچکس دقیقا نمیداند. این موضوع از بحثهای پرشور اما دوستانه در تیم پروفسور ست شامل متخصصان جوان هوش مصنوعی، کارشناسان رایانه، عصبشناسان و فیلسوفان کاملا پیداست؛ تیمی که تلاش میکند به یکی از بزرگترین پرسشهای علم و فلسفه پاسخ دهند.
با وجود اختلاف نظرهای فراوان در مرکز پژوهشی خودآگاهی، همه دانشمندان در روش کار اتفاق نظر دارند: شکستن مشکل بزرگ به بخشهای کوچکتر و حل آنها در قالب پروژههای تحقیقاتی مانند «دریمماشین».
همانطور که در قرن نوزدهم، جستوجو برای کشف «جرقه حیات» که تصور میشد اشیای بیجان را زنده میکند، متوقف شد و به جای آن پژوهش درباره چگونگی کار اجزای مختلف سامانههای زنده انجام شد، الان هم تیم دانشگاه ساسکس همان روش را برای مطالعه خودآگاهی به کار میگیرد.
آنها امیدوارند الگوهایی در فعالیت مغز را شناسایی کنند که بتواند ویژگیهای مختلف تجربیات آگاهانه، مانند تغییرات در سیگنالهای الکتریکی یا جریان خون به بخشهای مختلف مغز را توضیح دهد. هدف آنها فراتر از یافتن صرفا همبستگی میان فعالیت مغز و خودآگاهی است و تلاش دارند برای هر یک از اجزای این تجربه، توضیحی پیدا کنند.
پروفسور ست، نویسنده کتابی درباره خودآگاهی به نام «بودنِ تو»، نگران است که جامعه، با توجه به شتاب سرسامآور پیشرفت فناوری، به سرعت در حال دگرگونی باشد، بی آن که دانش کافی درباره علم یا تامل کافی درباره پیامدهای آن در دست باشد.
او میگوید: «ما طوری رفتار میکنیم که انگار آینده از قبل نوشته شده است؛ گویی مسیری ناگزیر برای جایگزینی ابرانسانی در حال طی شدن است.»
«ما در دوره اوج گرفتن شبکههای اجتماعی به اندازه کافی این گفتوگوها را نداشتیم و این به ضرر همه ما تمام شد. اما در مورد هوش مصنوعی، هنوز دیر نشده است. ما میتوانیم تصمیم بگیریم چه میخواهیم.»
آیا هوش مصنوعی همین الان هم خودآگاه است؟
اما افرادی در صنعت فناوری هستند که معتقدند هوش مصنوعی در رایانهها و گوشیهای ما ممکن است از همین حالا خودآگاه باشد و باید با آنها مانند یک موجود آگاه برخورد کرد.
گوگل در سال ۲۰۲۲ بلیک لمواین، مهندس نرمافزار این شرکت را تعلیق کرد، چون گفته بود که چتباتهای هوش مصنوعی میتوانند احساس داشته باشند و حتی رنج بکشند.
در نوامبر ۲۰۲۴، کایل فیش، یکی از مسئولان شرکت هوش مصنوعی آنتروپیک، در گزارشی به این موضوع اشاره کرد که ایجاد خودآگاهی در هوش مصنوعی در آیندهای نزدیک، یک امکان واقعبینانه است. او چندی پیش به نیویورک تایمز گفت که به نظرش شانس کمی (۱۵ درصد) وجود دارد که چتباتها از همین حالا خودآگاه باشند.
یکی از دلایلی که او فکر میکند چنین چیزی ممکن است، این است که هیچکس حتی افرادی که این سیستمها را ساختهاند دقیقا نمیدانند آنها چگونه کار میکنند. پروفسور ماری شنهان، دانشمند ارشد در پروژه دیپمایند گوگل و استاد بازنشسته هوش مصنوعی در امپریال کالج لندن، میگوید این موضوع نگرانکننده است.
او به بیبیسی گفت: «ما در واقع درک دقیق و درستی از نحوه کارکرد داخلی مدلهای زبانی بزرگ نداریم و این جای نگرانی دارد.»
به گفته پروفسور شنهان، بسیار مهم است که شرکتهای فناوری درک درستی از سیستمهایی که میسازند داشته باشند و پژوهشگران به این موضوع به عنوان یک مسئله فوری و ضروری نگاه میکنند.
او میگوید: «ما در موقعیت عجیبی قرار داریم. چیزهای بسیار پیچیدهای میسازیم اما نظریه درستی درباره چگونگی عملکرد شگفتانگیز آنها نداریم. به همین دلیل درک بهتر از نحوه کار این ابزارها به ما کمک میکند آنها را در مسیر درست هدایت کنیم و مطمئن شویم که ایمن هستند.»
«مرحله بعدی در تکامل انسانیت»
دیدگاه غالب در بخش فناوری این است که مدلهای زبانی بزرگ از نوعی آگاهی شبیه آنچه ما در جهان تجربه میکنیم، برخوردار نیستند و شاید هیچ گونه آگاهی هم نداشته باشند. اما این همان چیزی است که لنور و مانوئل بلام، زوجی که هر دو استاد بازنشسته دانشگاه کارنگی ملون پیتسبورگ در پنسیلوانیا هستند، معتقدند به زودی تغییر خواهد کرد.
به گفته این زوج، این تغییر زمانی رخ خواهد داد که هوش مصنوعی و مدلهای زبانی بزرگ از طریق اتصال دوربینها و حسگرهای لمسی به سیستمهای هوش مصنوعی، ورودیهای حسی زندهتری مثل بینایی و لامسه از دنیای واقعی دریافت کنند. آنها در حال توسعه یک مدل رایانهای هستند که زبان درونی خودش، به نام «برِینیش»، را میسازد تا بتواند این دادههای حسی اضافی را در تلاش برای بازآفرینی آنچه در مغز انسان رخ میدهد، پردازش کند.
لنور به بیبیسی میگوید: «ما فکر میکنیم برینیش میتواند مشکل خودآگاهی را همانطور که ما آن را درک میکنیم، حل کند. خودآگاهی در هوش مصنوعی، اجتنابناپذیر است.»
مانوئل با لبخندی شیطنتآمیز و با هیجان صحبت او را ادامه میدهد و میگوید که این سیستمهای جدید که او هم معتقد است بهزودی پدیدار میشوند، «مرحله بعدی در تکامل انسانیت» خواهند بود.
او باور دارد که رباتهای خودآگاه «فرزندان ما هستند. در آینده، ماشینهایی از این دست موجوداتی خواهند بود که روی زمین و شاید در سیارات دیگر حضور خواهند داشت، وقتی ما دیگر در این دنیا نباشیم».
دیوید چالمرز، استاد فلسفه و علوم اعصاب در دانشگاه نیویورک، تفاوت بین خودآگاهی واقعی و ظاهری را در کنفرانسی در توسان آریزونا در سال ۱۹۹۴ تعریف کرد. او این «مسئله دشوار» را طرح کرد که چرا و چطور هر کدام از عملکردهای پیچیده مغز میتواند منجر به تجربهای آگاهانه شود؛ مثل واکنش احساسی ما وقتی صدای آواز یک بلبل را میشنویم.
پروفسور چالمرز میگوید که نسبت به امکان حل شدن این مسئله دشوار خوشبین است.
او به بیبیسی گفت: «بهترین نتیجه این خواهد بود که بشریت بتواند از این انفجار هوش جدید بهرهمند شود. شاید به جایی برسیم که مغز ما توسط سیستمهای هوش مصنوعی تقویت شود.»
درباره جنبه علمی-تخیلی این موضوع، او با لحنی کنایهآمیز میگوید: «در حرفه من، تنها مرزی باریک میان داستان علمی-تخیلی و فلسفه وجود دارد.»
«رایانههای گوشتی»
با این حال پروفسور سِت در حال بررسی این ایده است که خودآگاهی واقعی فقط میتواند در سیستمهای زنده به وجود بیاید.
او میگوید: «دلایل قوی وجود دارد که نشان میدهد برای خودآگاهی، محاسبه کردن کافی نیست بلکه زنده بودن شرط لازم است.»
«برخلاف رایانهها، به سختی میتوان کارکرد مغز را از ماهیت آن جدا کرد. به همین دلیل سخت است باور کنیم که مغز تنها یک رایانه گوشتی است.»
اگر فرضیه پروفسور ست درباره اهمیت حیات و زنده بودن درست باشد، محتملترین فناوری آینده نه از سیلیکون ساخته میشود و نه با کدهای رایانهای اداره میشود، بلکه از مجموعههای کوچکی از سلولهای عصبی به اندازه دانههای عدس تشکیل خواهد شد که اکنون در آزمایشگاهها پرورش مییابند.
رسانهها آنها را «مینیمغز» مینامند، در حالیکه جامعه علمی به آنها «انارگانوئیدهای مغزی» (یا اندامکهای مغزی) میگوید و از آنها برای پژوهش درباره چگونگی کار مغز و آزمایش داروها استفاده میکند.
شرکت استرالیایی «کورتیکال لبز» در ملبورن حتی سیستمی از سلولهای عصبی در یک ظرف پرورش داده که میتواند بازی ویدیویی «پُنگ» (محصول ۱۹۷۲) را بازی کند. اگرچه این توانایی هنوز فاصله زیادی با یک سیستم خودآگاه دارد، اما دیدن حرکت دسته بازی روی صفحه، برای ضربه زدن به توپ پیکسلی، تصویری ترسناک ایجاد میکند.
برخی کارشناسان معتقدند اگر قرار باشد خودآگاهی شکل بگیرد، به احتمال زیاد از نسخههای بزرگتر و پیشرفتهتر این سامانههای بافت زنده بیرون خواهد آمد.
شرکت کورتیکال لبز فعالیت الکتریکی این سلولها را، برای تشخیص هر گونه سیگنالی که بتواند شبیه به ظهور نوعی خودآگاهی باشد، زیر نظر دارد.
دکتر برت کاگن، مدیر علمی و اجرایی شرکت، این موضوع را در نظر دارد که اگر روزی هوش کنترلناپذیری در این سیستمها پدیدار شود، ممکن است اولویتهایش «با اولویتهای ما همسو نباشد». او به حالت نیمهشوخی میگوید که در صورت رخ دادن چنین اتفاقی، «اندامکهای ارباب» شکستپذیر خواهند بود چون «همیشه میشود روی این نورونهای داخل ظریف وایتکس ریخت».
او در حالی که دوباره به لحنی جدی برمیگردد، میگوید دوست دارد بازیگران اصلی این حوزه، به عنوان بخشی از تلاشهای جدی برای پیشبرد درک علمی ما، بیشتر به تهدید کوچک اما مهم خودآگاهی مصنوعی توجه کنند. اما اضافه میکند: «متاسفانه شاهد هیچگونه تلاش جدی در این زمینه نیستیم.»
توهم خودآگاهی
اما مشکل فوریتر شاید این باشد که توهم خودآگاهی در ماشینها چه تاثیری بر ما خواهد داشت.
به گفته پروفسور ست در چند سال آینده ممکن است در دنیایی زندگی کنیم که با رباتهای انساننما و تصاویری جعلی (دیپفیک) پر شده که به نظر میرسد آگاه هستند. او نگران است که ما نتوانیم در برابر باور به اینکه هوش مصنوعی احساس و همدلی دارد، مقاومت کنیم و به نظر او این مسئله میتواند منجر به خطرات تازهای شود.
او میگوید: «این رویکرد باعث میشود ما بیشتر به این چیزها اعتماد کنیم، اطلاعات بیشتری در اختیارشان بگذاریم و راحتتر قانع شویم.»
اما او هشدار میدهد که بزرگترین خطر ناشی از توهم خودآگاهی، «فساد اخلاقی» است.
او میگوید «این باعث میشود اولویتهای اخلاقیمان بههم بریزد، چون بخشی از منابع و توجه خود را صرف مراقبت از این سیستمها میکنیم و مسائل واقعی زندگیمان را فراموش میکنیم»؛ یعنی ممکن است برای رباتها دلسوزی کنیم، اما برای انسانهای دیگر اهمیت کمتری قائل شویم.
به گفته پروفسور شنهان، این موضوع میتواند اساسا ما را دگرگون کند.
او میگوید: «روابط انسانی به شکل روزافزونی در روابط با هوش مصنوعی بازتولید خواهد شد. این سیستمها به عنوان معلم، دوست، رقیب در بازیهای رایانهای و حتی شریک عاطفی به کار خواهند رفت. این که این خوب است یا بد، نمیدانم. اما این اتفاق خواهد افتاد و ما نمیتوانیم جلو آن را بگیریم.»
منبع: بی بی سی